El uso de herramientas de inteligencia artificial está hoy en el centro del debate jurídico —y no solo jurídico— debido a la profunda irrupción que esta tecnología ha tenido en el análisis y procesamiento de información disponible en la red. Como señalé en una columna anterior, este fenómeno no hace sino reafirmar la importancia de los fundamentos que rigen el ejercicio profesional y la responsabilidad que recae sobre quienes operan el derecho, sean abogados o jueces, al emplear tales herramientas.
En reciente sentencia del Tribunal Superior de Cali se confirmó el deniego de tener en el proceso interlocución directa con herramienta de IA para aportar conocimiento técnico a un proceso de responsabilidad médica, como medio de prueba experta, dictamen o informe técnico, bajo el argumento de que la información recabada de la herramienta sería no sólo experta, sino además imparcial. Antes de analizar lo dicho por el Tribunal es pertinente recordar que en reciente decisión la sala civil de la Corte analizó el valor probatorio de un dictamen pericial, y recordó de dónde nace el poder de convencimiento de ese medio de prueba en la resolución de un conflicto en que el conocimiento experto es necesario para ello.
En sentencia SC2154‑2025, la Corte recuerda que la fuerza probatoria del dictamen no nace, sólo, de la hoja de vida del perito, sino de la calidad epistémica del conocimiento que produce. Por eso, advierte, la valoración no puede reducirse a verificar títulos o trayectoria, pues “la idoneidad del experto es condición necesaria, pero no suficiente”, y que el juez debe examinar si el dictamen expone con claridad “los exámenes, métodos (…) y los fundamentos técnicos o científicos de sus conclusiones”. En otras palabras, la formación del perito no convierte automáticamente sus conclusiones en verdad procesal, ellas solo adquieren valor cuando están respaldadas por datos transparentes, un método válido y un razonamiento replicable. La Corte reafirma que el dictamen es persuasivo no por quién lo firma, sino por cómo llega a sus conclusiones.
Si, de acuerdo con la Corte, no basta la formación del perito para dar por ciertas sus conclusiones, siendo indispensable un método verificable y un razonamiento controlable de sus conclusiones, en la providencia del Tribunal Superior de Cali encontramos que siguen siendo los principios fundantes de nuestra profesión los que deben iluminar el uso de herramientas de IA, como señalé en anterior columna.
En efecto el Tribunal recuerda que un modelo generativo no puede satisfacer los requisitos en que se debe fundar el análisis de prueba técnica, dictamen o informe, pues “el sistema no ‘sabe’ nada en el sentido convencional del término”, recordando que la IA no opera con datos verificables ni con procedimientos replicables, sino con correlaciones estadísticas opacas. Concluye que, en la forma solicitada, la prueba resultaba incompatible con las exigencias de pertinencia, conducencia y contradicción que gobiernan la prueba pericial. En suma, el estándar epistemológico que la Corte exige al perito humano revela, por contraste, la imposibilidad estructural de tratar a la IA como fuente de conocimiento experto dentro del proceso judicial.
Los pronunciamientos judiciales recientes sobre inteligencia artificial muestran que si bien esta tecnología ya es —y será cada vez más— protagonista en el ejercicio del derecho, su incorporación no reemplaza los fundamentos que sostienen nuestra práctica profesional. La IA puede ampliar nuestras capacidades, acelerar tareas y ofrecer nuevas formas de análisis, pero no puede asumir el juicio crítico ni la responsabilidad que el ordenamiento asigna a abogados y jueces. En esta nueva era, triunfarán quienes sepan integrar la tecnología con rigor y criterio, ajustándola siempre a los fundamentos éticos y profesionales de la abogacía.
¿Quiere publicar su edicto en línea?
Contáctenos vía WhatsApp